@InProceedings{PereiraPetr:2011:AsDaUt,
author = "Pereira, Andr{\'e} Grahl and Petry, Adriano",
affiliation = "{} and {Instituto Nacional de Pesquisas Espaciais (INPE)}",
title = "Assimila{\c{c}}{\~a}o de dados utilizando
neuroevolu{\c{c}}{\~a}o ao modelo do atrator de lorenz",
year = "2011",
organization = "Semin{\'a}rio Inicia{\c{c}}{\~a}o Cientifica do CRS,
(SICCRS).",
keywords = "t{\'e}cnicas neuroevolutivas.",
abstract = "Este trabalho teve como objetivo realizar um estudo da viabilidade
do uso de t{\'e}cnicas neuroevolutivas para a
assimila{\c{c}}{\~a}o de dados com uma qualidade equivalente a
das t{\'e}cnicas cl{\'a}ssicas. Redes Neurais v{\^e}m sendo
propostas muito recentemente como m{\'e}todos para
emula{\c{c}}{\~a}o de t{\'e}cnicas de assimila{\c{c}}{\~a}o
de dados, apresentando resultados consistentes, sendo
computacionalmente eficientes. A neuroevolu{\c{c}}{\~a}o faz
analogia {\`a} teoria evolucionista, em que as redes neurais
s{\~a}o os fen{\'o}tipos a serem alcan{\c{c}}ados e os
algoritmos gen{\'e}ticos s{\~a}o a maneira que permite que a
evolu{\c{c}}{\~a}o ocorra, atrav{\'e}s de operadores de
crossover e muta{\c{c}}{\~a}o. Os cromossomos na
neuroevolu{\c{c}}{\~a}o podem representar qualquer componente da
rede, em casos mais comuns eles definem os pesos sin{\'a}pticos,
podendo tamb{\'e}m definir topologias. Neuro-Evolution of
Augmenting Topologies (NEAT) {\'e} um m{\'e}todo Topology and
Weight Evolving Neural Networks (TWEANNs). Nesta classe de
algoritmos de aprendizagem, o genoma codifica a topologia, bem
como os pesos de conex{\~a}o, que possuem a propriedade de
descobrir de forma aut{\^o}noma a topologia mais adequada {\`a}
rede. Assim, a evolu{\c{c}}{\~a}o da topologia pode ser usada
para aumentar a efici{\^e}ncia, deixando a rede com o menor
n{\'u}mero poss{\'{\i}}vel de neur{\^o}nios na camada oculta.
O modelo utilizado para os testes do projeto foi o atrator de
Lorenz, e consiste de um mapa ca{\'o}tico que mostra o estado de
um sistema din{\^a}mico evoluindo no tempo, em um padr{\~a}o
complexo e n{\~a}o repetitivo, sendo este modelo refer{\^e}ncia
em testes de novas t{\'e}cnicas de assimila{\c{c}}{\~a}o de
dados. O projeto consistiu da implementa{\c{c}}{\~a}o do atrator
de Lorenz, da t{\'e}cnica de assimila{\c{c}}{\~a}o de dados de
interpola{\c{c}}{\~a}o {\'o}tima, bem como das redes neurais
treinadas por backpropagation, algoritmos gen{\'e}ticos e NEAT. A
partir do atrator de Lorenz foram gerados dois conjuntos de dados
com mil itera{\c{c}}{\~o}es cada, sendo que um foi definido como
background e o outro como truth. Com os dados do truth foram
geradas observa{\c{c}}{\~o}es com uma pequena aleatoriedade,
esses tr{\^e}s conjuntos foram utilizados no m{\'e}todo de
interpola{\c{c}}{\~a}o {\'o}tima para a gera{\c{c}}{\~a}o do
conjunto de an{\'a}lise. Dessa forma o conjunto para o
treinamento das redes neurais foi obtido, sendo o background e as
observa{\c{c}}{\~o}es usados como input e a an{\'a}lise como
output. 20% desse conjunto foi empregado na fase de treinamento e
80% na fase de valida{\c{c}}{\~a}o. Ap{\'o}s os testes, foi
observado que redes neurais treinadas por backpropagation
apresentam o menor erro para o conjunto de treinamento e as
treinadas por NEAT apresentam um erro menor que redes treinadas
por algoritmos gen{\'e}ticos. No conjunto de
valida{\c{c}}{\~a}o as redes treinadas por NEAT apresentam uma
capacidade de generaliza{\c{c}}{\~a}o superior e assim um erro
inferior as redes treinadas por algoritmos gen{\'e}ticos e
backpropagation. Dessa forma, a neuroevolu{\c{c}}{\~a}o
apresenta-se como uma alternativa aos m{\'e}todos cl{\'a}ssicos
de assimila{\c{c}}{\~a}o de dados, bem como para as abordagens
tradicionais do uso de redes neurais treinadas por
backpropagation.",
conference-location = "Santa Maria-RS",
conference-year = "15 a 16 de junho de 2011",
language = "pt",
urlaccessdate = "27 abr. 2024"
}